期刊
  出版年
  关键词
结果中检索 Open Search
Please wait a minute...
选择: 显示/隐藏图片
1. 融合用户需求和边界约束的平面图生成算法
王若莹, 吕凡, 赵柳清, 胡伏原
《计算机应用》唯一官方网站    2023, 43 (2): 575-582.   DOI: 10.11772/j.issn.1001-9081.2021122143
摘要326)   HTML10)    PDF (2582KB)(178)    收藏

平面图设计是房屋设计的重要过程,而现有的自动化平面图设计方法缺乏考虑用户需求和建筑边界的共同约束,存在生成房间形状缺角、房间之间遮挡严重以及房间超越边界的布局不合理问题。针对上述问题,提出一种融合用户需求和边界约束的房屋平面图生成对抗网络(GBC-GAN),它由约束布局生成器和房间关系鉴别器构成。首先,将用户指定的房屋布局需求(包括房间数量和类型以及房屋之间的邻接方位关系)转化为约束关系图结构,之后对建筑边界和约束关系图分别编码并进行特征融合;然后,在约束布局生成器中引入边界框预测模块以将平面图生成问题转化为各房间对象边界框生成问题,并利用几何边界优化损失来解决房间之间遮挡严重、房间超越边界的问题;最后,将房间边界框布局和约束关系图输入到房间关系鉴别器训练生成符合房间对象及其关系的平面图布局。在大型真实建筑数据集RPLAN上,该方法的弗雷歇距离(FID)和结构相似性指数(SSIM)比House-GAN方法分别提升了4.39%和2.3%。实验结果表明,在不同用户需求和边界限制条件下,所提方法提高了房屋平面图的合理性和真实性。

图表 | 参考文献 | 相关文章 | 多维度评价
2. 结合目标检测的室内场景识别方法
徐江浪, 李林燕, 万新军, 胡伏原
计算机应用    2021, 41 (9): 2720-2725.   DOI: 10.11772/j.issn.1001-9081.2020111815
摘要420)      PDF (1357KB)(337)    收藏
在目标检测网络(ObjectNet)和场景识别网络相结合的方法中,由于ObjectNet提取的目标特征和场景网络提取的场景特征的维度和性质不一致,且目标特征中存在影响场景判断的冗余信息,导致场景识别的准确率低。针对这个问题,提出一种改进的结合目标检测的室内场景识别方法。首先,在ObjectNet中引入类转换矩阵(CCM),将ObjectNet输出的目标特征进行转化,使得目标特征的维度与场景特征的维度相一致,以此减少特征维度不一致带来的信息丢失;然后采用上下文门控(CG)机制对特征中的冗余信息进行抑制,从而降低不相关信息的权重,提高了目标特征在场景识别中的作用。该方法在MIT Indoor67数据集上的识别准确率达到90.28%,与维护空间布局的对象语义特征(SOSF)方法相比识别准确率提高了0.77个百分点;其在SUN397数据集上识别准确率达到81.15%,与交替专家层次结构(HoAS)方法相比识别准确率提高了1.49个百分点。实验结果表明,所提方法提高了室内场景识别的准确率。
参考文献 | 相关文章 | 多维度评价
3. 多层次结构生成对抗网络的文本生成图像方法
孙钰, 李林燕, 叶子寒, 胡伏原, 奚雪峰
计算机应用    2019, 39 (11): 3204-3209.   DOI: 10.11772/j.issn.1001-9081.2019051077
摘要455)      PDF (1012KB)(529)    收藏
近年来,生成对抗网络(GAN)在从文本描述到图像的生成中已经取得了显著成功,但仍然存在图像边缘模糊、局部纹理不清晰以及生成样本方差小等问题。针对上述不足,在叠加生成对抗网络模型(StackGAN++)基础上,提出了一种多层次结构生成对抗网络(MLGAN)模型,该网络模型由多个生成器和判别器以层次结构并列组成。首先,引入层次结构编码方法和词向量约束来改变网络中各层次生成器的条件向量,使图像的边缘细节和局部纹理更加清晰生动;然后,联合训练生成器和判别器,借助多个层次的生成图像分布共同逼近真实图像分布,使生成样本方差变大,增加生成样本的多样性;最后,从不同层次的生成器生成对应文本的不同尺度图像。实验结果表明,在CUB和Oxford-102数据集上MLGAN模型的Inception score分别达到了4.22和3.88,与StackGAN++相比,分别提高了4.45%和3.74%。MLGAN模型在解决生成图像的边缘模糊和局部纹理不清晰方面有了一定提升,其生成的图像更接近真实图像。
参考文献 | 相关文章 | 多维度评价
4. 面向手术导航3D/2D配准的无监督跨域迁移网络
王熙源 张战成 徐少康 张宝成 罗晓清 胡伏原
《计算机应用》唯一官方网站    DOI: 10.11772/j.issn.1001-9081.2023091332
预出版日期: 2024-01-31